home *** CD-ROM | disk | FTP | other *** search
/ Night Owl 9 / Night Owl CD-ROM (NOPV9) (Night Owl Publisher) (1993).ISO / 032a / lnn0108.zip / LNN1.008
Text File  |  1993-06-03  |  67KB  |  1,247 lines

  1.  
  2.       ▒▒▄     ▒▒▒▒▒▒▄ ▒▒▒▒▒▒▄ ▒▒▒▒▒▒▄ ▒▒▄        ▒▒▒▄▄ ▒▒▄ ▒▒▒▒▒▒▄ ▒▒▒▒▒▒▄
  3.       ▒▒█     ▒▒█▀▀▀▀ ▒▒█▀▀▀▀ ▒▒█▀▒▒█ ▒▒█        ▒▒█▒▒█▒▒█ ▒▒█▀▀▀▀  ▀▒▒█▀▀ 
  4.       ▒▒█     ▒▒▒▒▒▄  ▒▒█▒▒▒▄ ▒▒▒▒▒▒█ ▒▒█        ▒▒█ ▀▒▒▒█ ▒▒▒▒▒▄    ▒▒█   
  5.       ▒▒█     ▒▒█▀▀▀  ▒▒█ ▒▒█ ▒▒█ ▒▒█ ▒▒█        ▒▒█   ▒▒█ ▒▒█▀▀▀    ▒▒█   
  6.       ▒▒▒▒▒▒▄ ▒▒▒▒▒▒▄ ▒▒▒▒▒▒█ ▒▒█ ▒▒█ ▒▒▒▒▒▒▄    ▒▒█   ▒▒█ ▒▒▒▒▒▒▄   ▒▒█   
  7.        ▀▀▀▀▀▀  ▀▀▀▀▀▀  ▀▀▀▀▀▀  ▀▀  ▀▀  ▀▀▀▀▀▀     ▀▀    ▀▀  ▀▀▀▀▀▀    ▀▀   
  8.                        ▒▒▒▄▄ ▒▒▄ ▒▒▒▒▒▒▄ ▒▒▄   ▒▒▄ ▒▒▒▒▒▒▄ 
  9.                        ▒▒█▒▒█▒▒█ ▒▒█▀▀▀▀ ▒▒█   ▒▒█ ▒▒█▀▀▀▀ 
  10.                        ▒▒█ ▀▒▒▒█ ▒▒▒▒▒▄  ▒▒█   ▒▒█ ▒▒▒▒▒▒▄ 
  11.                        ▒▒█   ▒▒█ ▒▒█▀▀▀  ▒▒█▒▒▄▒▒█  ▀▀▀▒▒█ 
  12.                        ▒▒█   ▒▒█ ▒▒▒▒▒▒▄  ▀▒▒▒▒█▀▀ ▒▒▒▒▒▒█ 
  13.                         ▀▀    ▀▀  ▀▀▀▀▀▀    ▀▀▀▀    ▀▀▀▀▀▀
  14.  
  15.                                Legal Net Newsletter
  16.  
  17.                         Volume 1, Issue 8 -- June 3, 1993
  18.  
  19.  
  20.           Legal Net Newsletter is dedicated to providing information
  21.          on the legal issues of computing and networking in the 1990's
  22.                               and into the future.
  23.  
  24.  
  25.  
  26.        The information contained in this newsletter is not to be
  27.        misconstrued as a bona fide legal document, nor is it to be taken
  28.         as an advocacy forum for topics discussed and presented herein.
  29.           The information contained within this newsletter has been
  30.           collected from several governmental institutions, computer
  31.          professionals and third party sources. Opinion and ideological
  32.        excerpts have been collected from many sources with prior approval.
  33.  
  34.                  "Legal Net News", "Legal Net Newsletter"
  35.                      and the Legal Net News logo are
  36.           Copyright (c) 1993 Paul Ferguson -- All rights reserved.
  37.  
  38.      This newsletter may be freely copied and distributed in its entirety.
  39.          Singular items contained within this newsletter may also be
  40.              freely copied and distributed, with the exception of
  41.                 individual copyrighted items which appear with
  42.                  the prior approval of the originating author.
  43.  
  44.            Legal Net News can be found at the following locations:
  45.  
  46.                          Publicly Accessible BBS's
  47.                          -------------------------
  48.  
  49.          The SENTRY Net BBS             Arlington Software Exchange
  50.          Centreville, Virginia  USA     Arlington, Virginia  USA
  51.          +1-703-815-3244                +1-703-532-7143
  52.          To 9,600 bps                   To 9,600 bps
  53.  
  54.                               The Internet
  55.                               ------------
  56.  
  57.       tstc.edu   (161.109.128.2)  Directory: /pub/legal-net-news
  58.  
  59.   Login as ANONYMOUS and use your net ID (for example: fergp@sytex.com)
  60.                   as the password. Or send e-mail to
  61.                          postmaster@tstc.edu
  62.  
  63.        E-mail submissions, comments and editorials to: fergp@sytex.com
  64.  
  65. - --
  66.  
  67. In this issue -
  68.  
  69. o CPSR files suit against the NSA for "Clipper" info
  70. o EFF comments to the NIST
  71. o The RISKS of teaching about computers and the law
  72. o Case History: "Some 'Property' Problems in a Computer Crime
  73.   Prosecution," by Mike Godwin
  74. o CPSR statement to the NIST
  75.  
  76. - --
  77.  
  78. Date:         Fri, 28 May 1993 14:30:44 EST
  79. From: Dave Banisar <uunet!washofc.cpsr.org!banisar>
  80. Organization: CPSR Civil Liberties and Computing Project
  81. Subject:      CPSR Seeks Clipper Docs
  82.  
  83.   CPSR Seeks Clipper Docs
  84.  
  85.  
  86. PRESS RELEASE May 28, 1993
  87.  
  88. CPSR Seeks Clipper Documents - Brings Suit Against NSA and National
  89. Security Council
  90.  
  91.         Washington, DC -- Computer Professionals for Social
  92. Responsibility filed suit today in federal district court seeking
  93. information about the government's controversial new cryptography
  94. proposal.
  95.  
  96.         The "Clipper" proposal, announced by the White House at an
  97. April 16 press conference, is based on a technology developed by the
  98. National Security Agency that would allow the government to intercept
  99. computer encoded information.  Law enforcement agencies say that
  100. capability this is necessary to protect court ordered wire
  101. surveillance.
  102.  
  103.    But industry groups and civil liberties organizations have raised
  104. questions about the proposal.  They cite the risk of abuse, the
  105. potential loss in security and privacy, costs to US firms and
  106. consumers, and the difficulties enforcing the policy.
  107.  
  108.         Marc Rotenberg, CPSR Washington office director, said "The
  109. Clipper plan was developed behind a veil of secrecy.  It is not enough
  110. for the White House to hold a few press conferences.  We need to know
  111. why the standard was developed, what alternatives were considered, and
  112. what the impact will be on privacy. "
  113.  
  114.         "As the proposal currently stands, Clipper looks a lot like
  115. 'desktop surveillance,'" added Rotenberg.
  116.  
  117.         David Sobel, CPSR Legal Counsel, said "CPSR is continuing its
  118. oversight of federal cryptography policy.  These decisions are too
  119. important to made in secret, without public review by all interested
  120. parties."
  121.  
  122.         In previous FOIA suits, CPSR obtained records from the General
  123. Services Administration questioning the FBI's digital telephony plan, a
  124. legislative proposal to require that communications companies design
  125. wiretap capability.  More recently, CPSR obtained records through the
  126. FOIA revealing the involvement of the National Security Agency in the
  127. development of  unclassified technical standards in violation of
  128. federal law.
  129.  
  130.         CPSR is a national membership organization, based in Palo Alto,
  131. CA.  Membership is open to the public.  For more information about
  132. CPSR, contact CPSR, P.O. Box 717, Palo Alto, CA 9403, 415/322-3778
  133. (tel), 415/322-3798 (fax), cpsr@cpsr.org
  134.  
  135. - --
  136.  
  137. Excerpt extracted from -
  138. EFFector Online Volume 5 No. 9      5/28/1993       editors@eff.org
  139. A Publication of the Electronic Frontier Foundation   ISSN 1062-9424
  140.  
  141. EFF Comments to the NIST (the National Institute of Standards and 
  142. Technology:
  143.           
  144. May 27, 1993
  145.  
  146. Before the
  147.  
  148. COMPUTER SYSTEM SECURITY AND PRIVACY ADVISORY BOARD 
  149. Technology Building, Room B-154
  150. National Institute of Standards and Technology Gaithersburg, MD 
  151. 20899
  152.  
  153. COMMENTS OF THE ELECTRONIC FRONTIER FOUNDATION 
  154.  
  155. Regarding
  156.  
  157. Key Escrow Chip Cryptographic Technology and Government 
  158. Cryptographic Policies and Regulations
  159.  
  160. The Electronic Frontier Foundation (EFF) commends the Computer 
  161. System Security and Privacy Advisory Board for offering the public 
  162. the opportunity to comment on developments in cryptography and 
  163. communications privacy policy. Recent Administration proposals, 
  164. including use of the Clipper Chip and establishment of a government-
  165. controlled key escrow system, raise questions that cut to the core of 
  166. privacy protection in the age of digital communication technology. 
  167. The questions noted by the Advisory Board in its Notice of Open 
  168. Meeting (58 FR 28855) reflect a broad range of concerns, from civil 
  169. liberties to global competitiveness. The Digital Privacy and Security 
  170. Working Group -- a cooperative effort of civil liberties organizations 
  171. and corporate users and developers of communication technology 
  172. which is chaired by the EFF -- has also submitted over one hundred 
  173. questions to the Administration. (These questions are being 
  174. submitted to the Advisory Board under separate cover on behalf of 
  175. the Working Group.) That there are so many questions demonstrates 
  176. the need for a comprehensive review of cryptography and privacy 
  177. policy. 
  178.  
  179. We are encouraged that the Administration has expressed a 
  180. willingness to undertake such a review. However, it has become clear 
  181. that plans for rapid introduction of the Clipper Chip could 
  182. unacceptably distort this important policy review. The 
  183. Administration has made no secret of the fact that it hopes to use 
  184. government purchasing power to promote Clipper as a de facto 
  185. standard for encryption. With Clipper on the market, the policy 
  186. process will be biased toward a long-term solution such as Clipper 
  187. with key escrow. Moreover, the rush to introduce Clipper is already 
  188. forcing a hasty policy review which may fail to provide adequate 
  189. public dialogue on the fundamental privacy questions which must be 
  190. resolved to reach a satisfactory cryptography policy. Based on the 
  191. depth and complexity of questions raised by this review, EFF 
  192. believes that no solution, with Clipper Chip or otherwise, should be 
  193. adopted by the government until the comprehensive cryptography 
  194. review initiated by the Administration is complete.
  195.  
  196. EFF is a nonprofit, public interest organization whose public policy 
  197. mission is to insure that the new electronic highways emerging from 
  198. the convergence of telephone, cable, broadcast, and other 
  199. communications technologies enhance free speech and privacy rights, 
  200. and are open and accessible to all segments of society.
  201.  
  202. In these comments, we will elaborate on questions 1, 2, and 3 listed 
  203. in the Advisory Board's Notice. We offer these comments primarily to 
  204. raise additional questions that must be answered during the course 
  205. of the Administration's policy review.
  206.  
  207. A. WILL PARTICULAR ENCRYPTION TECHNOLOGIES BE MANDATED OR 
  208. PROSCRIBED?: A THRESHOLD QUESTION
  209.  
  210. Unraveling the current encryption policy tangle must begin with one 
  211. threshold question: will there come a day when the federal 
  212. government controls the domestic use of encryption through 
  213. mandated key escrow schemes or outright prohibitions against the 
  214. use of particular encryption technologies? Is Clipper the first step in 
  215. this direction? A mandatory encryption regime raises profound 
  216. constitutional questions, some of which we will discuss below. So far, 
  217. the Administration has not declared that use of Clipper will be 
  218. mandatory, but several factors point in that direction:
  219.  
  220. 1. Secrecy of the algorithm justified by need to ensure key escrow 
  221. compliance: 
  222.  
  223. Many parties have already questioned the need for a secret 
  224. algorithm, especially given the existence of robust, public-domain 
  225. encryption techniques. The most common explanation given for use 
  226. of a secret algorithm is the need to prevent users from by-passing 
  227. the key escrow system proposed along with the Clipper Chip. If the 
  228. system is truly voluntary, then why go to such lengths to ensure 
  229. compliance with the escrow procedure?
  230.  
  231. 2. How does a voluntary system solve law enforcement's problems? 
  232.  
  233. The major stated rationale for government intervention in the 
  234. domestic encryption arena is to ensure that law enforcement has 
  235. access to criminal communications, even if they are encrypted. Yet, a 
  236. voluntary scheme seems inadequate to meet this goal. Criminals who 
  237. seek to avoid interception and decryption of their communications 
  238. would simply use another system, free from escrow provisions. 
  239. Unless a government-proposed encryption scheme is mandatory, it 
  240. would fail to achieve its primary law enforcement purpose. In a 
  241. voluntary regime, only the law-abiding would use the escrow 
  242. system.
  243.  
  244. B. POLICY CONCERNS ABOUT GOVERNMENT-RUN KEY ESCROW SYSTEM 
  245.  
  246. Even if government-proposed encryption standards remain 
  247. voluntary, the use of key escrow systems still raises serious 
  248. concerns: 
  249.  
  250. 1. Is it wise to rely on government agencies, or government-selected 
  251. private institutions to protect the communications privacy of all who 
  252. would someday use a system such as Clipper?
  253.  
  254. 2. Will the public ever trust a secret algorithm with an escrow 
  255. system enough to make such a standard widely used? 
  256.  
  257. C. CONSTITUTIONAL IMPLICATIONS OF GOVERNMENT CONTROLS ON 
  258. USE OF ENCRYPTION 
  259.  
  260. Beyond the present voluntary system is the possibility that specific 
  261. government controls on domestic encryption could be enacted. Any 
  262. attempt to mandate a particular cryptographic standard for private 
  263. communications, a requirement that an escrow system be used, or a 
  264. prohibition against the use of specific encryption algorithms, would 
  265. raise fundamental constitutional questions. In order to appreciate the 
  266. importance of the concerns raised, we must recognize that we are 
  267. entering an era in which most of society will rely on encryption to 
  268. protect the privacy of their electronic communications. The following 
  269. questions arise: 
  270.  
  271. 1. Does a key escrow system force a mass waiver of all users' Fifth 
  272. Amendment right against self-incrimination? 
  273.  
  274. The Fifth Amendment protects individuals facing criminal charges 
  275. from having to reveal information which might incriminate them at 
  276. trial. So far, no court has determined whether or not the Fifth 
  277. Amendment allows a defendant to refuse to disclose his or her 
  278. cryptographic key. As society and technology have changed, courts 
  279. and legislatures have gradually adapted fundamental constitutional 
  280. rights to new circumstances. The age of digital communications 
  281. brings many such challenges to be resolved. Such decisions require 
  282. careful, deliberate action. But the existence of a key escrow system 
  283. would have the effect of waiving this right for every person who 
  284. used the system in a single step. We believe that this question 
  285. certainly deserves more discussion.
  286.  
  287. 2. Does a mandatory key escrow system violate the Fourth 
  288. Amendment prohibition against "unreasonable search and seizure"? 
  289.  
  290. In the era where people work for "virtual corporations" and conduct 
  291. personal and political lives in cyberspace, the distinction between 
  292. communication of information and storage of information is 
  293. increasingly vague. The organization in which one works or lives may 
  294. constitute a single virtual space, but be physically dispersed. So, the 
  295. papers and files of the organization or individual may be moved 
  296. within the organization by means of telecommunications technology. 
  297. Until now, the law of search and seizure has made a sharp distinction 
  298. between, on the one hand, seizures of papers and other items in a 
  299. person's physical possession, and on the other hand, wiretapping of 
  300. communications. Seizure of papers or personal effects must be 
  301. conducted with the owner's knowledge, upon presentation of a 
  302. search warrant. Only in the exceptional case of wiretapping, may a 
  303. person's privacy be invaded by law enforcement without 
  304. simultaneously informing the target. Instantaneous access to 
  305. encryption keys, without prior notice to the communicating parties, 
  306. may well constitute a secret search, if the target is a virtual 
  307. organization or an individual whose "papers" are physically 
  308. dispersed. Under the Fourth Amendment, secret searches are 
  309. unconstitutional. 
  310.  
  311. 3. Does prohibition against use of certain cryptographic techniques 
  312. infringe individuals' right to free speech? 
  313.  
  314. Any government restriction on or control of speech is to be regarded 
  315. with the utmost scrutiny. Prohibiting the use of a particular form of 
  316. cryptography for the express purpose of making communication 
  317. intelligible to law enforcement is akin to prohibiting anyone from 
  318. speaking a language not understood by law enforcement. Some may 
  319. argue that cryptography limitations are controls on the "time, place 
  320. and manner" of speech, and therefore subject to a more lenient legal 
  321. standard. However, time, place and manner restrictions that have 
  322. been upheld by courts include laws which limit the volume of 
  323. speakers from interfering with surrounding activities, or those which 
  324. confine demonstrators to certain physical areas. 
  325. No court has ever upheld an outright ban on the use of a particular 
  326. language. Moreover, even a time, place and manner restriction must 
  327. be shown to be the "least restrictive means" of accomplishing the 
  328. government's goal. It is precisely this question -- the availability of 
  329. alternatives which could solve law enforcement's actual problems -- 
  330. that must be explored before a solution such as Clipper is promoted. 
  331.  
  332. D. PUBLIC PROCESS FOR CRYPTOGRAPHY POLICY 
  333.  
  334. As this Advisory Board is well aware, the Computer Security Act of 
  335. 1987 clearly established that neither military nor law enforcement 
  336. agencies are the proper protectors of personal privacy. When 
  337. considering the law, Congress asked, "whether it is proper for a 
  338. super-secret agency [the NSA] that operates without public scrutiny 
  339. to involve itself in domestic activities...?" The answer was a clear 
  340. "no." Recent Administration announcements regarding the Clipper 
  341. Chip suggest that the principle established in the 1987 Act has been 
  342. circumvented. For example, this Advisory Board was not consulted 
  343. with until after public outcry over the Clipper announcements. Not 
  344. only does the initial failure to consult eschew the guidance of the 
  345. 1987 Act, but also it ignored the fact that this Advisory Board was 
  346. already in the process of conducting a cryptography review.
  347.  
  348. As important as the principle of civilian control was in 1987, it is 
  349. even more critical today. The more individuals around the country 
  350. come to depend on secure communications to protect their privacy, 
  351. the more important it is to conduct privacy and security policy 
  352. dialogues in public, civilian forums.
  353.  
  354. CONCLUSION
  355.  
  356. The EFF thanks the Advisory Board for the opportunity to comment 
  357. on these critical public policy issues. In light of the wide range of 
  358. difficult issues raised in this inquiry, we encourage the Advisory 
  359. Board to call on the Administration to delay the introduction of 
  360. Clipper-based products until a thorough, public dialogue on 
  361. encryption and privacy policy has been completed.
  362.  
  363. Respectfully Submitted,
  364.  
  365. Electronic Frontier Foundation
  366.  
  367. Jerry Berman
  368. Executive Director
  369. jberman@eff.org
  370.  
  371. Daniel J. Weitzner
  372. Senior Staff Counsel
  373. djw@eff.org
  374.  
  375. - --
  376.  
  377.  
  378. Excerpt extracted from RISKS Digest (14.65) -
  379.  
  380. Date: Fri, 21 May 93 16:13:46 EDT
  381. >From: junger@samsara.law.cwru.edu (Peter D. Junger)
  382. Subject: The risks of teaching about computers and the law
  383.  
  384.         A fortnight ago, in order to postpone the necessity of grading
  385. final exams, I started writing a simple-minded encryption program, which
  386. uses a "one-time pad" as a key, for use this Fall in my class on
  387. Computers and the Law.  The program is intended to demonstrate certain
  388. things that lawyers who are going to deal with the problems generated by
  389. computers should know:  things like the nature of an algorithm and the
  390. fact that any text (that is encoded in binary digits) of length n
  391. contains (if one just has the key) all other texts of length n.
  392.  
  393.         Although in that course we shall mainly be concerned with
  394. copyright and patent issues relating to computer programs, we should
  395. also spend some time on security issues and on government regulation of
  396. computer programs.  And that, of course, includes the regulation of the
  397. export of computer programs, including cryptographic programs and
  398. technical information relating to such programs.  I shall also have to
  399. discuss cryptographic programs when dealing with issues of computer
  400. security, since it would profit lawyers to be aware of the fact that
  401. cryptography can do far more than the law can to keep one's confidences
  402. confidential. The latter point is, of course, of particular importance
  403. to members of a profession who have a legal and moral duty to keep their
  404. clients' confidences confidential from everyone, but especially from the
  405. agents of the state.
  406.  
  407.         As I was writing this program I realized that it itself, and any
  408. `technical data' relating to it, might be subject to federal export
  409. licensing regulations, since I intended to give copies of it to, and
  410. discuss it with, my students and make it available to anyone who wants
  411. it, even foreigners.  Even if I do not put it on an anonymous FTP
  412. server, as I originally planned, there is no way that I can guarantee
  413. that all the students who enroll in my class will be citizens or
  414. permanent residents of the United States.
  415.  
  416.         After a little quick research I have determined that my program
  417. may be--and, in fact, probably is--subject to such licensing, though
  418. whether by the Department of Commerce or that of State is a matter that
  419. it will take some sixty days for the bureaucrats to determine.  The
  420. trouble is that the program, which should run on any PC clone running
  421. MSDOS 3 or higher, and which now consists in its entirety of 174 bytes
  422. of 8086 machine code, which I am pretty sure I can get down to 170 bytes
  423. or less, is squarely covered by the definitions of Category XIII of the
  424. U.S. Munitions List (as is my old Captain Midnight Decoder, which I got
  425. during the War for a boxtop--or was it an Ovaltine label?--and change).
  426.  
  427.         The relevant subdivision of Category XIII of the Munitions List
  428. is (b), which provides in relevant part:
  429.  
  430.         (b)  Information Security Systems and equipment, cryptographic
  431.         devices, software, and components specifically designed or
  432.         modified therefor, including:
  433.  
  434.            (1)  Cryptographic (including key management) systems,
  435.            equipment, assemblies, modules, integrated circuits,
  436.            components or software with the capability of maintaining
  437.            secrecy or confidentiality of information or information
  438.            systems, except cryptographic equipment and software as
  439.            follows:
  440.  
  441.               .... [none of the exceptions appear to be applicable to my
  442.               program]
  443.  
  444. There is no exception for encryption software that is so simple minded
  445. that a law teacher, whose only degrees are in English and law, can hack
  446. it out in about six hours, most of which time was spent chasing bugs
  447. that were the result of typos.  I estimate that the average computer
  448. literate 12-year old could have written the program in about 20 minutes.
  449.  
  450.         In the course of my researches, which so far have consisted
  451. of speaking to a very pleasant person at the Department of Commerce's
  452. Bureau of Export Administration, to a not very nice major and a slightly
  453. nicer person at the Department of State's Bureau of Politico-Military
  454. Affairs, Office of Defense Trade Controls, and to a not un-nice person,
  455. whose name I was not allowed to know, who supposedly was at NSA, and
  456. wading an inch or so into a seven inch stack of Commerce Department
  457. regulations and a few more inches of statutes, I have concluded that if
  458. I `export' my little program without first getting a license I may be
  459. subject to a fine of not more than $1,000,000, or imprisonment for not
  460. more than ten years, or both.
  461.  
  462.         This isn't so bad, since in the case of the actual program it is
  463. pretty clear that `exporting' means exporting, so, since I don't intend
  464. to export the program, the only problem is that posting it on an FTP
  465. server on the internet gets into a `grey' area (according to the
  466. unknowable at NSA).  Of course, if the program is considered to be my
  467. expression--which it must be if it is protected by the copyright
  468. laws--it is probably a violation of the First Amendment to require me to
  469. get a license before I can export it.  But since I don't intend to
  470. export it--and the unknowable, on whom I dare not rely, did keep saying
  471. that it was a matter of my intention--I can treat that issue as an
  472. academic problem.  (By the way, it is my position that the actual
  473. program--the machine code--not being in any sense expression--cannot
  474. Constitutionally be protected by copyright law; this is a position that
  475. the lower courts have--at least _sub silentio_--uniformly rejected, but
  476. it is a good bet that the Supreme Court will agree with me when it
  477. finally gets around to considering this issue!)
  478.  
  479.         The real trouble is that Category XIII contains as its final
  480. subdivision paragraph (k), which covers
  481.  
  482.         (k) Technical data . . . related to the defense articles listed
  483.         in this category.
  484.  
  485. And that, of course, means that I cannot lawfully export technical data
  486. about my program without first obtaining a license.
  487.  
  488.         But the regulations relating to technical data that is included on the
  489. Munitions List say, in effect, that the `export' of technical data includes
  490. talking about the defense article to which the data relates--which in my case
  491. is my piddling little program--in the presence of someone who is neither a
  492. citizen of the United States nor admitted to permanent residence in the United
  493. States.  So, if any foreign students sign up for my course I will be required
  494. to get a license--which I am not sure I can get at all, and certainly will not
  495. be able to get in time to teach my course--before describing the program to my
  496. class, explaining how to use it, and giving them the source code--which, by
  497. the way, I contend _does_ contain expression--to load in with the debug
  498. program.
  499.  
  500.         I admit that I am not greatly concerned about the potential criminal
  501. penalties that might be imposed if I do discuss the program with my students
  502. without a license, and not only because I don't have a million dollars
  503. and--far all I know--may not have ten years.  I cannot imagine anyone--except
  504. perhaps that major--who would be stupid enough to try to punish me for
  505. discussing my trivial program with my students.
  506.  
  507.         But how can I teach this particular bit of computer law if the very
  508. act of teaching amounts--at least in theory--to a criminal violation of the
  509. very law that I am teaching?  That this is not a logical paradox is an
  510. illustration of the fact that the law is not logic; but I still feel that I am
  511. trapped in an impossible situation.
  512.  
  513.         It is hard for me as a law teacher to believe that this regulatory
  514. scheme that requires me to get a prior license each time that I speak about,
  515. or publish the details of, my trivial program (or, in the alternative, to make
  516. sure that no foreigners get to hear or read what I have to say about it) can
  517. withstand a constitutional challenge on First Amendment grounds.
  518.  
  519.         The "secret" of how to keep a secret in 170 bytes or less is not
  520. something that imposes any conceivable threat to the security of the United
  521. States, especially not when the underlying algorithm is well known to most who
  522. are, and many who aren't, knowledgeable about computers--or, for that matter,
  523. about logic.  And thus the government can't constitutionally punish me for
  524. revealing this "secret" of mine or talking and writing about how it works.
  525. And even if the government could constitutionally punish me after the fact,
  526. that does not mean that they can impose a prior restraint on my speaking or
  527. writing about the "secret".  Prior restraints on speech or publication--and
  528. especially licensing schemes--are especially vulnerable to constitutional
  529. attack, since the First Amendment provisions relating to the freedom of speech
  530. and of the press were adopted in large part to prevent the federal government
  531. from adopting the type of censorship and licensing that had prevailed in
  532. England under the Tudor and Stuart monarchies.
  533.  
  534.         And yet I am so intimidated and disheartened by this
  535. unconstitutional scheme that I dare not explain in a submission to
  536. Risks, which undoubtedly has foreign subscribers, how my silly little
  537. program works.  And even if I were willing to take that risk, I could
  538. not in good conscience impose it on our moderator.
  539.  
  540.         And if I have problems now, just think how ridiculous the
  541. situation will be if the government tries to outlaw all encryption
  542. programs and devices other than the Clipper Chip.
  543.  
  544.         [For those of you who understand how my program works and who
  545. take the effort to write your own encryption program based on that
  546. understanding, I have a special offer.  If you will just send me an
  547. E-mail message certifying that you are a United States Citizen, I will
  548. send you (at any address on the internet that is within the United
  549. States), a UUENCODEd key that when applied by your program to this
  550. particular submission to Risks--after all headers have been stripped
  551. off--will produce a working copy of my program, which is a COM file that
  552. runs under MSDOS. (Be sure that your copy of this submission uses the
  553. Carriage Return / Line Feed combination as the End of Line indicator.)]
  554.  
  555. Peter D. Junger
  556.  
  557. Case Western Reserve University Law School, Cleveland, OH
  558. Internet:  JUNGER@SAMSARA.LAW.CWRU.Edu -- Bitnet:  JUNGER@CWRU
  559.  
  560.  
  561. - --
  562.  
  563. From: mnemonic@eff.org (Mike Godwin)
  564. Subject:  Cardozo Law Forum article on the Craig Neidorf Computer-Crime
  565. Message-ID: <1992Dec1.155823.27405@eff.org>
  566. Date: Tue, 1 Dec 1992 15:58:23 GMT
  567.  
  568. Readers of misc.legal and comp.org.eff.talk may be interested in
  569. the following article, which addresses the intersection of
  570. intellectual-property law and criminal law in a computer-crime case.
  571. The article first appeared in September in the Cardozo Law Forum at
  572. Cardozo Law School in New York City.
  573.  
  574. ----------
  575.  
  576. Some "Property" Problems in a Computer Crime Prosecution
  577.      By Mike Godwin
  578.      
  579.      The spread and pervasiveness of computer technology create the
  580. potential both for new kinds of crimes and for new variations of
  581. traditional crimes.  Law enforcement, the judiciary, and the legislature
  582. can respond to these potentials in two ways: by seeking new laws to
  583. address new problems, or by attempting to apply old laws (and traditional
  584. notions of crime) in new and unforeseen situations.  This article concerns
  585. what hazards may face prosecutors and judges when law enforcement chooses
  586. the latter tactic.  In particular, it shows what can happen when
  587. prosecutors uncritically apply intellectual property notions in
  588. prosecuting a defendant under laws passed to protect tangible property.
  589.      
  590.      The government stumbles in a "hacker" case.
  591.      
  592.      In the recent case of U.S. v. Riggs, the Chicago U.S. Attorney's
  593. office prosecuted two young men, Robert Riggs and Craig Neidorf, on counts
  594. of wire fraud (18 U.S.C. 1343), interstate transportation of stolen
  595. property (18 U.S.C.  2314) and computer fraud (18 U.S.C. 1030).  Of these
  596. statutes, only the last was passed specifically to address the problems of
  597. unauthorized computer intrusion; the other two are "general purpose"
  598. federal criminal statutes that are used by the government in a wide range
  599. of criminal prosecutions.  The wire fraud statute includes as an element
  600. the taking (by fraudulent means) of "money or property," while the
  601. interstate-transportation-of-stolen-property (ITSP) statute requires,
  602. naturally enough, the element of "goods, wares, merchandise, securities or
  603. money, of the value of $5,000 or more." (I do not address here the extent
  604. to which the notions of "property" differ between these two federal
  605. statutes.  It is certain that they do differ to some extent, and the
  606. interests protected by the wire-fraud statute were expanded in the 1980s
  607. by Congress to include "the intangible right to honest services." 18
  608. U.S.C. 1346..  Even so, the prosecution in the Riggs case relies not on
  609. 1346, but on intellectual-property notions, which are the focus of this
  610. article.)  The 18 U.S.C. 1030 counts against Neidorf were dropped in the
  611. government's June 1990 superseding indictment, the indictment actually
  612. used at Neidorf's trial in July 1990.
  613.      The Riggs case is based on the following facts: Robert Riggs, a
  614. computer "hacker" in his early '20s, discovered that he could easily gain
  615. access to an account on a computer belonging to Bell South, one of the
  616. Regional Bell Operating Companies (RBOCs).  The account was highly
  617. insecure--access to it did not require a password (a standard, if not
  618. always effective, security precaution).  While exploring this account,
  619. Riggs discovered a word-processing document detailing procedures and
  620. definitions of terms relating the Emergency 911 system ("E911 system").
  621. Like many hackers, Riggs had a deep curiosity about the workings of this
  622. country's telephone system. (This curiosity among young hackers is a
  623. social phenomenon that has been documented for more than 20 years. See,
  624. e.g., Rosenbaum, "Secrets of the Little Blue Box," Esquire, October 1971;
  625. and Barlow, "Crime and Puzzlement: In Advance of the Law on the Electronic
  626. Frontier," Whole Earth Review, September 1990.)
  627.      Riggs knew that his discovery would be of interest to Craig Neidorf,
  628. a Missouri college student who, while not a hacker himself, was an amateur
  629. journalist whose electronically distributed publication, Phrack, was
  630. devoted to articles of interest to computer hackers.  Riggs sent a copy of
  631. the E911 document to Neidorf over the telephone line--using computer and
  632. modem--and Neidorf edited the copy to conceal its origin.  Among other
  633. things, Neidorf removed the statements that the information contained in
  634. the document was proprietary and not for distribution.  Neidorf then sent
  635. the edited copy back to Riggs for the latter's review; following Riggs's
  636. approval of the edited copy, Neidorf published the E911 document in the
  637. February 24, 1989, issue of Phrack.  Some months following publication of
  638. the document in Phrack, both Riggs and Neidorf were caught and questioned
  639. by the Secret Service, and all systems that might contain the E911
  640. document were seized pursuant to evidentiary search warrants.
  641.      Riggs and Neidorf were indicted on the counts discussed supra; Riggs,
  642. whose unauthorized access to the BellSouth computer was difficult to
  643. dispute, later pled guilty to wire fraud for that conduct.  Neidorf pled
  644. innocent on all counts, arguing, inter alia, that his conduct was
  645. protected by the First Amendment, and that he had not deprived Bell South
  646. of property as that notion is defined for the purposes of the wire fraud
  647. and ITSP statutes.
  648.      The two defenses are closely related.  Under the First Amendment, the
  649. presumption is that information is free, and that it can readily be
  650. published and republished.  For this reason, information gives rise to a
  651. property interest only if it passes certain legal tests.  Law enforcement
  652. cannot simply assume that whenever information has been copied from a
  653. private computer system a theft has taken place.
  654.      In Neidorf's case, as it turns out, this is essentially what the
  655. Secret Service and the U.S. Attorney's office did assume. The assumption
  656. came back to haunt the government when it was revealed during trial that
  657. the information contained within the E911 document did not meet any of the
  658. relevant legal tests to be established as a property interest.
  659.      
  660.      How information becomes stealable property.
  661.      
  662.      In order for information to be stolen property, it must first be
  663. property.  There are only a few ways that information can qualify as a
  664. property interest, and two of these--patent law and copyright law--are
  665. creatures of federal statute, pursuant to an express Constitutional grant
  666. of legislative authority. (U.S. Constitution, Article I, Sec. 8, clause
  667. 8.)  Patent protections were clearly inapplicable in the Neidorf case; the
  668. E911 document, a list of definitions and procedures, did not constitute an
  669. invention or otherwise patentable process or method.  Copyright law might
  670. have looked more promising to Neidorf's prosecutors, since it is well
  671. established that copyrights qualify as property interests in some contexts
  672. (e.g., the law of inheritance).
  673.      Unfortunately for the government, the Supreme Court has explicitly
  674. stated that copyrighted material is not property for the purposes of the
  675. ITSP statute.  In Dowling v. United States, 473 U.S. 207 (1985), the Court
  676. held that interests in copyright are outside the scope of the ITSP
  677. statute. (Dowling involved a prosecution for interstate shipments of
  678. pirated Elvis Presley recordings.)  In reaching its decision, the Court
  679. held, inter alia, that 18 U.S.C. $ 2314 contemplates "a physical identity
  680. between the items unlawfully obtained and those eventually transported,
  681. and hence some prior physical taking of the subject goods."   Unauthorized
  682. copies of copyrighted material do not meet this "physical identity"
  683. requirement.
  684.      The Court also reasoned that intellectual property is different in
  685. character from property protected by generic theft statutes: "The
  686. copyright owner, however, holds no ordinary chattel.  A copyright, like
  687. other intellectual property, comprises a series of carefully defined and
  688. carefully delimited interests to which the law affords correspondingly
  689. exact protections."  The Court went on to note that a special term of art,
  690. "infringement," is used in reference to violations of copyright
  691. interests--thus undercutting any easy equation between unauthorized copying
  692. and "stealing" or "theft."
  693.      It is clear, then, that in order for the government to prosecute the
  694. unauthorized copying of computerized information as a theft, it must rely
  695. on other theories of information-as-property.  Trade secret law is one
  696. well-established legal theory of this sort.  Another is the
  697. breach-of-confidence theory articulated recently by the Supreme Court in
  698. Carpenter v. United States, 108 S.Ct. 316 (1987). I will discuss each
  699. theory in turn below.
  700.       
  701.      Trade Secrets
  702.      
  703.      Trade secrets are generally creatures of state law, and most
  704. jurisdictions have laws that criminalize the violations of a trade-secret
  705. holder's rights in the secret. There is no general federal definition of
  706. what a trade secret is, but there have been federal cases in which
  707. trade-secret information has been used to establish the property element
  708. of a federal property crime. See, e.g., United States v. Bottone, 365 F.2d
  709. 389 (2d Cir.), cert denied, 385 U.S. 974 (1966), affirming ITSP
  710. convictions in a case involving a conspiracy to steal drug-manufacturing
  711. bacterial cultures and related documents from a pharmaceutical company and
  712. sell them in foreign markets. (In Bottone, a pre-Dowling appellate court
  713. expressed a willingness to interpret 18 U.S.C. $ 2314 as encompassing the
  714. interstate transportation of copies of documents detailing the
  715. drug-manufacturing process, i.e., it did not require the "physical
  716. identity" element discussed supra. Recognizing possible problems with this
  717. approach, however, the appellate court reasoned in the alternative that
  718. the bacterial cultures themselves provided a sufficient nexus of a
  719. tangible property interest to justify application of the ITSP statute;
  720. this alternative analysis may render Bottone consistent with Dowling. It
  721. should be noted that the post-Dowling judge in Riggs expressed, in his
  722. denial of a motion to dismiss, 739 F.Supp. 414 (N.D.Ill, 1990), a similar
  723. willingness not to require actual physical identity as a predicate for
  724. ITSP.  An appellate court later criticized this decision. U.S. v. Brown,
  725. 925 F.2d 1301 (1991).)
  726.      The problem in using a trade secret to establish the property element
  727. of a theft crime is that, unlike traditional property, information has to
  728. leap several hurdles in order to be established as a trade secret.
  729.      Trade secret definitions vary somewhat from state to state, but the
  730. varying definitions typically have most elements in common.  One good
  731. definition of "trade secret" is outlined by the Supreme Court in Kewanee
  732. Oil Co. v. Bicron Corp., 416 U.S. 470 (1974): "a trade secret may consist
  733. of any formula, pattern, device or compilation of information which is
  734. used in one's business, and which gives one an opportunity to obtain an
  735. advantage over competitors who do not know or use it.  It may be a formula
  736. for a chemical compound, a process of manufacturing, treating or
  737. preserving materials, a pattern for a machine or other device, or a list
  738. of customers."  The Court went further and listed the particular
  739. attributes of a trade secret
  740.      * The information must, in fact, be secret--"not of public knowledge
  741. or of general knowledge in the trade or business."
  742.      * A trade secret remains a secret if it is revealed in confidence to
  743. someone who is under a contractual or fiduciary obligation, express or
  744. implied, not to reveal it.
  745.      * A trade secret is protected against those who acquire via
  746. unauthorized disclosure, violation of contractual duty of confidentiality,
  747. or through "improper means." ("Improper means" includes such things as
  748. theft, bribery, burglary, or trespass. The Restatement of Torts at 757
  749. defines such means as follows: "In general they are means which fall below
  750. the generally accepted standards of commercial morality and reasonable
  751. conduct.")
  752.      * A court will allow a trade secret to be used by someone who
  753. discovered or developed the trade secret independently (that is, without
  754. taking it in some way from the holder), or if the holder does not take
  755. adequate precautions to protect the secret.
  756.      * An employee or contractor who, while working for a company,
  757. develops or discovers a trade secret, generally creates trade secret
  758. rights in the company.
  759.      
  760.      The holder of a trade secret may take a number of steps to meet its
  761. obligation to keep the trade secret a secret.  These may include: 
  762.      a) Labelling documents containing the trade secret "proprietary" or
  763. "confidential" or "trade secret" or "not for distribution to the public;"
  764.     b) Requiring employees and contractors to sign agreements not to
  765. disclose whatever trade secrets they come in contact with;  
  766.      c) destroying or rendering illegible discarded documents containing
  767. parts or all of the secret, and;
  768.      d) restricting access to areas in the company where a nonemployee, or
  769. an employee without a clear obligation to keep the information secret,
  770. might encounter the secret. Dan Greenwood's Information Protection
  771. Advisor, April 1992, page 5.
  772.      
  773.      Breach-of-confidence
  774.      
  775.      Even if information is not protected under the federal patent and
  776. copyright schemes, or under state-law trade-secret provisions, it is
  777. possible, according to the Supreme Court in Carpenter, for such
  778. information to give rise to a property interest when its unauthorized
  779. disclosure occurs via the breach of confidential or fiduciary
  780. relationship.  In Carpenter, R. Foster Winans, a Wall Street Journal
  781. reporter who contributed to the Journal's "Heard on the Street" column,
  782. conspired with Carpenter and others to reveal the contents of the column
  783. before it was printed in the Journal, thus allowing the conspirators to
  784. buy and sell stock with the foreknowledge that stock prices would be
  785. affected by publication of the column.  Winans and others were convicted
  786. of wire fraud; they appealed the wire-fraud convictions on the grounds
  787. that had not deprived the Journal of any money or property.
  788.      It should be noted that this is not an "insider trading" case, since
  789. Winans was no corporate insider, nor was it alleged that he had received
  790. illegal insider tips.  The "Heard on the Street" column published
  791. information about companies and stocks that would be available to anyone
  792. who did the requisite research into publicly available materials.  Since
  793. the information reported in the columns did not itself belong to the
  794. Journal, and since the Journal planned to publish the information for a
  795. general readership, traditional trade secret notions did not apply.  Where
  796. was the property interest necessary for a wire-fraud conviction?
  797.      The Supreme Court reasoned that although the facts being reported in
  798. the column were not exclusive to the Journal, the Journal's
  799. right--presumably based in contract--to Winans' keeping the information
  800. confidential gave rise to a property interest adequate to support a
  801. wire-fraud conviction.  Once the Court reached this conclusion, upholding
  802. the convictions of the other defendants followed: even if one does not
  803. have a direct fiduciary duty to protect a trade secret or confidential
  804. information, one can become civilly or criminally liable if one conspires
  805. with, solicits, or aids and abets a fiduciary to disclose such information
  806. in violation of that person's duty.  The Court's decision in Carpenter has
  807. received significant criticism in the academic community for its expansion
  808. of the contours of "intangible property," but it remains good law today.
  809.      
  810.      How the theories didn't fit
  811.      
  812.      With these two legal approaches--trade secrets and breach of
  813. confidence--in mind, we can turn back to the facts of the Riggs case and
  814. see how well, or how poorly, the theories applied in the case of Craig
  815. Neidorf.
  816.      With regard to any trade-secret theory, it is worth noting first of
  817. all that the alleged victim, BellSouth, is a Regional Bell Operating
  818. Company--a monopoly telephone-service provider for a geographic region in
  819. the United States.  Recall the observation in Kewanee Oil, supra, that a
  820. trade secret "gives one an opportunity to obtain an advantage over
  821. competitors who do not know or use it."  There are strong arguments
  822. that--at least so far as the provision of Emergency 911 service
  823. goes--BellSouth has no "competitors" within any normal meaning of the term.
  824. And even if BellSouth did have competitors, it is likely that they would
  825. both know and use the E911 information, since the specifications of this
  826. particular phone service are standardized among the regional Bells.
  827.      Moreover, as became clear in the course of the Neidorf trial, the
  828. information contained in the E911 document was available to the general
  829. public as well, for a nominal fee. (One of the dramatic developments at
  830. trial occurred during the cross-examination of a BellSouth witness who had
  831. testified that the E911 document was worth nearly $80,000.  Neidorf's
  832. counsel showed her a publication containing substantially the same
  833. information that was available from a regional Bell or from Bellcore, the
  834. Bells' research arm, for $13 to any member of the public that ordered it
  835. over an 800 number.) Under the circumstances, if the Bells wanted to
  836. maintain the E911 information as a trade secret, they hadn't taken the
  837. kind of steps one might normally think a keeper of a secret would take.
  838.      
  839.      BellSouth had, however, taken the step of labelling the E911 document
  840. as "NOT TO BE DISCLOSED OUTSIDE OF BELLSOUTH OR ITS SUBSIDIARIES" (it was
  841. this kind of labelling that Neidorf attempted to remove as he edited the
  842. document for publication in Phrack).  This fact may have been responsible
  843. for the federal prosecutors' oversight in not determining prior to trial
  844. whethe E911 document met the tests of trade-secret law.  It is possible
  845. that prosecutors, unfamiliar with the nuances of trade-secret law, read
  846. the "proprietary" warnings and, reasonining backwards, concluded that the
  847. information thus labelled must be trade-secret information.  If so, this
  848. was a fatal error on the government's part.  In the face of strong
  849. evidence that the E911 document was neither secret nor competitively or
  850. financially very valuable, any hope the government had of proving the
  851. document to be a trade secret evaporated. (Alternatively, the government
  852. may have reasoned that the E911 information could be used by malicious
  853. hackers to damage the telephone system in some way. The trial transcript
  854. shows instances in which the government attempted to elicit information of
  855. this sort. It should be noted, however, that even if the information did
  856. lend itself to abuse and vandalism, this fact alone does not bring it
  857. within the scope of trade-secret law.) 
  858.      
  859.      Nor did the facts lend themselves to a Carpenter-like theory based on
  860. breach of confidence; Neidorf had no duties to BellSouth not to disclose
  861. its information.  Neither did Riggs, from whom Neidorf acquired a copy of
  862. the document.  The Riggs case lacks the linchpin necessary for a
  863. conviction based on Carpenter--in order for nonfiduciaries to be convicted,
  864. there must be a breaching fiduciary involved in the scheme in some way.
  865. There can be no breach of a duty of confidence when there is no duty to be
  866. breached.
  867.      Thus, when its trade-secret theory of the E911 document was
  868. demolished in mid-trial, the government had no fall-back theory to rely on
  869. with regard to its property-crime counts, and the prosecution quickly
  870. sought a settlement on terms favorable to Neidorf, dropping prosecution of
  871. the case in return for Neidorf's agreement to a pre-trial diversion on one
  872. minor count.  
  873.      The lesson to be learned from Riggs is that it is no easy task to
  874. establish the elements of a theft crime when the property in question is
  875. information. There are good reasons, in a free society, that this should
  876. be so--the proper functioning of free speech and a free press require that
  877. information be presumptively protected from regulation by government or by
  878. private entities invoking the civil or criminal law property protections.
  879. The government in Riggs failed in its duty to recognize this presumption
  880. by failing to make the necessary effort to understand the intellectual
  881. property issues of the case. Had it done so, Neidorf might have been
  882. spared an expensive and painful trial, and the government might have been
  883. spared a black eye.*
  884.  
  885. ------
  886.  
  887. *See, e.g., "Score One for the Hackers of America," NEWSWEEK, Aug. 6
  888. 1990, page 48, and "Dial 1-800 ... for BellSouth 'Secrets',"
  889. COMPUTERWORLD, Aug. 6, 1990, page 8.
  890.      
  891.      _______________________________________________
  892.      
  893.      Mike Godwin, a 1990 guaduate of the University to Texas School of
  894. Law, is staff counsel for the Electronic Frontier Foundation. EFF filed an
  895. amicus curiae brief in the Neidorf case, arguing that Neidorf's attempted
  896. publication of the E911 document was protected speech under the First
  897. Amendment. Godwin received a B.A. in liberal arts from the University of
  898. Texas at Austin in 1980. Prior to law school, Godwin worked as a
  899. journalist and as a computer consultant.
  900.      
  901.  
  902. - --
  903.  
  904. Date:         Wed, 2 Jun 1993 17:08:40 EST
  905. Sender: Computer Professionals for Social Responsibility
  906.               <uunet!VTVM2.CC.VT.EDU!CPSR%GWUVM.BITNET>
  907. From: David Sobel <uunet!washofc.cpsr.org!dsobel>
  908. Organization: CPSR Civil Liberties and Computing Project
  909. Subject:      CPSR NIST Crypto Statement
  910.  
  911.   CPSR NIST Crypto Statement
  912.  
  913. ==============================================
  914.  
  915.                     Department of Commerce
  916.         National Institute of Standards and Technology
  917.  
  918.       Computer System Security and Privacy Advisory Board
  919.  
  920.                 Review of Cryptography Policy
  921.                           June 1993
  922.  
  923.              Statement of CPSR Washington office
  924.                   Marc Rotenberg, director
  925.                 (rotenberg@washofc.cpsr.org)
  926.                with David Sobel, legal counsel,
  927.                  Dave Banisar, policy analyst
  928.  
  929.  
  930.      Mr. Chairman, members of the Advisory Panel, thank you for the
  931. opportunity to speak today about emerging issues on cryptography
  932. policy.
  933.  
  934.      My name is Marc Rotenberg and I am director of the CPSR
  935. Washington office.  Although CPSR does not represent any computer
  936. firm or industry trade association, we speak for many in the
  937. computer profession who value privacy and are concerned about the
  938. government's Clipper proposal.
  939.  
  940.      During the last several years CPSR has organized several meetings
  941. to promote public discussion of cryptography issues.  We have also
  942. obtained important government documents through the Freedom of
  943. Information Act.  We believe that good policies will only result if the
  944. public, the profession, and the policy makers are fully informed
  945. about the significance of these recent proposals.
  946.  
  947.      We are pleased that the Advisory Board has organized hearings.
  948. This review of cryptography policy will help determine if the Clipper
  949. proposal is in the best interests of the country.  We believe that a
  950. careful review of the relevant laws and policies shows that the key
  951. escrow arrangement is at odds with the public interest, and that
  952. therefore the Clipper proposal should not go forward.
  953.  
  954.      Today I will address issues 1 through 3 identified in the NIST
  955. announcement, specifically the policy requirements of the Computer
  956. Security Act, the legal issues surrounding the key escrow
  957. arrangement, and the importance of privacy for network
  958. development.
  959.  
  960.  
  961. 1. CRYPTOGRAPHY POLICY
  962.  
  963.      The first issue concerns the 1987 statute enacted to improve
  964. computer security in the federal government, to clarify the
  965. responsibilities of NIST and NSA, and to ensure that technical
  966. standards would serve civilian and commercial needs.  The Computer
  967. Security Act, which also established this Advisory Panel, is the true
  968. cornerstone of cryptography policy in the United States.  That law
  969. made clear that in the area of unclassified computing systems, the
  970. Department of Commerce and not the Department of Defense, would
  971. be responsible for the development of technical standards.  It
  972. emphasized public accountability and stressed open decision-making.
  973.  
  974.      The Computer Security Act grew out of a concern that classified
  975. standards and secret meetings would not serve the interests of the
  976. general public.  As the practical applications for cryptography have
  977. moved from the military and intelligence arenas to the commercial
  978. sphere, this point has become clear.  There is also clearly a conflict of
  979. interest when an agency tasked with signal interception is also given
  980. authority to develop standards for network security.
  981.  
  982.      In the spirit of the Computer Security Act, NIST set out in 1989 to
  983. develop a public key standard FIPS.  In a memo dated May 5, 1989
  984. and obtained by CPSR through the Freedom of Information Act, NIST
  985. said that it planned:
  986.  
  987.          to develop the necessary public-key based security
  988.          standards.  We require a public-key algorithm for
  989.          calculating digital signatures and we also require a
  990.          public-key algorithm for distributing secret keys.
  991.  
  992. NIST then went on to define the requirements of the standard:
  993.  
  994.          The algorithms that we use must be public, unclassified,
  995.          implementable in both hardware or software, usable by
  996.          federal Agencies and U.S. based multi-national
  997.          corporation, and must provide a level of security
  998.          sufficient for the protection of unclassified, sensitive
  999.          information and commercial propriety and/or valuable
  1000.          information.
  1001.  
  1002.      The Clipper proposal and the full-blown Capstone configuration,
  1003. which incorporates the key management function NIST set out to
  1004. develop in 1989, is very different from the one originally conceived
  1005. by NIST.
  1006.  
  1007.          %  The Clipper algorithm, Skipjack, is classified,
  1008.  
  1009.          %  Public access to the reasons underlying the proposal is
  1010.             restricted,
  1011.  
  1012.          %  Skipjack can be implemented only in tamper-proof
  1013.             hardware,
  1014.  
  1015.          %  It is unlikely to be used by multi-national corporations,
  1016.             and
  1017.  
  1018.          %  Its security remains unproven.
  1019.  
  1020.      The Clipper proposal undermines the central purpose of the
  1021. Computer Security Act.  Although intended for broad use in
  1022. commercial networks, it was not developed at the request of either
  1023. U.S. business or the general public.  It does not reflect public goals.
  1024. Rather it reflects the interests of one secret agency with the
  1025. authority to conduct foreign signal intelligence and another
  1026. government agency  responsible for law enforcement investigations.
  1027.  
  1028.      It is our belief that the Clipper proposal clearly violates the intent
  1029. of the Computer Security Act of 1987.
  1030. What is the significance of this?  It is conceivable that an expert
  1031. panel of cryptographers will review the Skipjack algorithm and find
  1032. that it lives up its billing, that there is no "trap door" and no easy
  1033. way to reverse-engineer.  In fact, the White House has proposed just
  1034. such a review process
  1035.  
  1036.      But is this process adequate?  Is this the procedure the Advisory
  1037. Board would endorse for the development of widespread technical
  1038. standards?  The expert participants will probably not be permitted
  1039. to publish their assessments of the proposal in scientific journals,
  1040. further review of the standard will be restricted, and those who are
  1041. skeptical will remain in the dark about the actual design of the chip.
  1042. This may be an appropriate process for certain military systems, but
  1043. it is clearly inappropriate for a technical standard that the
  1044. government believes should be widely incorporated into the
  1045. communications infrastructure.
  1046.  
  1047.      Good government policy requires that certain process goals be
  1048. satisfied.  Decisions should be made in the open.  The interests of the
  1049. participating agencies should be clear.  Agencies should be
  1050. accountable for their actions and recommendations.  Black boxes and
  1051. government oversight are not compatible.
  1052.  
  1053.      There is an even greater obligation to promote open decisions
  1054. where technical and scientific issues are at stake.  Innovation
  1055. depends on openness.  The scientific method depends on the ability
  1056. of researchers to "kick the tires" and "test drive" the product.  And,
  1057. then, even if it is a fairly good design, additional testing encourages
  1058. the development of new features, improved performance and
  1059. reduced cost.  Government secrecy is incompatible which such a
  1060. development process.
  1061.  
  1062.      Many of these principles are incorporated into the Computer
  1063. Security Act and the Freedom of Information Act.  The current
  1064. government policy on the development of unclassified technical
  1065. standards, as set out in the Computer Security Act, is a very good
  1066. policy.  It emphasizes public applications, stresses open review, and
  1067. ensures public accountability.  It is not the policy that is flawed.  It is
  1068. the Clipper proposal.
  1069.  
  1070.      To accept the Clipper proposal would be to endorse a process that
  1071. ran contrary to the law, that discourages innovation, and that
  1072. undermines openness.
  1073.  
  1074.  
  1075. 2. LEGAL AND CONSTITUTIONAL ISSUES
  1076.  
  1077.      There are several legal and constitutional issues raised by the
  1078. government's key escrow proposal.
  1079.  
  1080.      The premise of the Clipper key escrow arrangement is that the
  1081. government must have the ability to intercept electronic
  1082. communications, regardless of the economic or societal costs.  The
  1083. FBI's Digital Telephony proposal, and the earlier Senate bill 266, was
  1084. based on the same assumption.
  1085.  
  1086.      There are a number of arguments made in defense of this
  1087. position: that privacy rights and law enforcement needs must be
  1088. balanced, or that the government will be unable to conduct criminal
  1089. investigations without this capability.
  1090.  
  1091.      Regardless of how one views these various claims, there is one
  1092. point about the law that should be made very clear: currently there
  1093. is no legal basis -- in statute, the Constitution or anywhere else --
  1094. that supports the premise which underlies the Clipper proposal.  As
  1095. the law currently stands, surveillance is not a design goal.  General
  1096. Motors would have a stronger legal basis for building cars that could
  1097. not go faster than 65 miles per hour than AT&T does in marketing a
  1098. commercial telephone that has a built-in wiretap capability.  In law
  1099. there is simply nothing about the use of a telephone that is
  1100. inherently illegal or suspect.
  1101.  
  1102.      The federal wiretap statute says only that communication service
  1103. providers must assist law enforcement in the execution of a lawful
  1104. warrant.  It does not say that anyone is obligated to design systems
  1105. to facilitate future wire surveillance.  That distinction is the
  1106. difference between countries that restrict wire surveillance to
  1107. narrow circumstances defined in law and those that treat all users of
  1108. the telephone network as potential criminals.  U.S. law takes the first
  1109. approach.  Countries such as the former East Germany took the
  1110. second approach.  The use of the phone system by citizens was
  1111. considered inherently suspect and for that reason more than 10,000
  1112. people were employed by the East German government to listen in
  1113. on telephone calls.
  1114.  
  1115.      It is precisely because the wiretap statute does not contain the
  1116. obligation to incorporate surveillance capability -- the design
  1117. premise of the Clipper proposal -- that the Federal Bureau of
  1118. Investigation introduced the Digital Telephony legislation.  But that
  1119. legislation has not moved forward on Capitol Hill and the law has
  1120. remained unchanged.  The Clipper proposal attempts to accomplish
  1121. through the standard-setting and procurement process what the
  1122. Congress has been unwilling to do through the legislative process.
  1123.  
  1124.      On legal grounds, adopting the Clipper would be a mistake.  There
  1125. is an important policy goal underlying the wiretap law.  The Fourth
  1126. Amendment and the federal wiretap statute do not so much balance
  1127. competing interests as they erect barriers against government excess
  1128. and define the proper scope of criminal investigation.  The purpose
  1129. of the federal wiretap law is to restrict the government, it is not to
  1130. coerce the public.
  1131.  
  1132.      Therefore, if the government endorses the Clipper proposal, it will
  1133. undermine the basic philosophy of the federal wiretap law and the
  1134. fundamental values embodied in the Constitution.  It will establish a
  1135. technical mechanism for signal interception based on a premise that
  1136. has no legal foundation.  I am not speaking rhetorically about "Big
  1137. Brother."  My point is simply that the assumption underlying the
  1138. Clipper proposal is more compatible with the practice of telephone
  1139. surveillance in the former East Germany than it is with the narrowly
  1140. limited circumstances that wire surveillance has been allowed in the
  1141. United States.
  1142.  
  1143.      There are a number of other legal issues that have not been
  1144. adequately considered by the proponents of the key escrow
  1145. arrangement that the Advisory Board should examine.  First, not all
  1146. lawful wiretaps follow a normal warrant process.  It is critical that
  1147. the proponents of Clipper make very clear how emergency wiretaps
  1148. will be conducted before the proposal goes forward.  Second, there
  1149. may be civil liability issues for the escrow agents if there is abuse or
  1150. compromise of the keys.  Escrow agents may be liable for any harm
  1151. that results.  Third, there is a Fifth Amendment dimension to the
  1152. proposed escrow key arrangement if a network user is compelled to
  1153. disclose his or her key to the government in order to access a
  1154. communications network. Each one of these issues should be
  1155. examined.
  1156.  
  1157.      There is also one legislative change that we would like the
  1158. Advisory Board to consider.  During our FOIA litigation, the NSA cited
  1159. a 1951 law to withhold certain documents that were critical to
  1160. understand the development of the Digital Signature Standard.  The
  1161. law, passed  grants the government the right restrict the disclosure
  1162. of any classified information pertaining to cryptography.  While the
  1163. government may properly withhold classified information in FOIA
  1164. cases, the practical impact of this particular provision is to provide
  1165. another means to insulate cryptographic policy from public review.
  1166.  
  1167.      Given the importance of public review of cryptography policy, the
  1168. requirement of the Computer Security Act, and the Advisory Board's
  1169. own commitment to an open, public process, we ask the Advisory
  1170. Board to recommend to the President and to the Congress that
  1171. section 798 be repealed or substantially revised to reflect current
  1172. circumstances.
  1173.  
  1174.      This is the one area of national cryptography policy where we
  1175. believe a change is necessary.
  1176.  
  1177.  
  1178. 3. INDIVIDUAL PRIVACY
  1179.  
  1180.      Communications privacy remains a critical test for network
  1181. development.  Networks that do not provide a high degree of privacy
  1182. are clearly less useful to network users.  Given the choice between a
  1183. cryptography product without a key escrow and one with a key
  1184. escrow, it would be difficult to find a user who would prefer the key
  1185. escrow requirement.  If this proposal does go forward, it will not be
  1186. because network users or commercial service providers favored it.
  1187.  
  1188.      Many governments are now facing questions about restrictions on
  1189. cryptography similar to the question now being raised in this
  1190. country.  It is clear that governments may choose to favor the
  1191. interests of consumers and businesses over law enforcement.  Less
  1192. than a month ago, the government of Australia over-rode the
  1193. objections of law enforcement and intelligence agencies and allowed
  1194. the Australian telephone companies to go forward with new digital
  1195. mobile phone networks, GSM, using the A5 robust algorithm.   Other
  1196. countries will soon face similar decisions.  We hope that they will
  1197. follow a similar path
  1198.  
  1199.      To briefly summarize, the problem here is not the existing law on
  1200. computer security or policies on cryptography and wire surveillance.
  1201. The Computer Security Act stresses public standards, open review,
  1202. and commercial applications.  The federal wiretap statute is one of
  1203. the best privacy laws in the world.  With the exception of one
  1204. provision in the criminal code left over from the Cold War, our
  1205. current cryptography policy is very good.  It reflects many of the
  1206. values -- individual liberty, openness, government accountability --
  1207. that are crucial for democratic societies to function.
  1208.  
  1209.      The problem is the Clipper proposal.  It is an end-run around
  1210. policies intended to restrict government surveillance and to ensure
  1211. agency accountability.  It is an effort to put in place a technical
  1212. configuration that is at odds with the federal wiretap law and the
  1213. protection of individual privacy.  It is for these reasons that we ask
  1214. the Advisory Board to recommend to the Secretary of Commerce, the
  1215. White House, and the Congress that the current Clipper proposal not
  1216. go forward.
  1217.  
  1218.      I thank you for the opportunity to speak with you about these
  1219. issues.  I wish to invite the members of the Advisory Committee to
  1220. the third annual CPSR Privacy and Cryptography conference that will
  1221. be held Monday, June 7 in Washington, DC at the Carnegie
  1222. Endowment for International Peace.  That meeting will provide an
  1223. opportunity for further discussion about cryptography policy.
  1224.  
  1225.  
  1226. ATTACHMENTS
  1227.  
  1228. "TWG Issue Number: NIST - May 5, 1989," document obtained
  1229. by CPSR as a result of litigation under the Freedom of
  1230. Information Act.
  1231.  
  1232. "U.S. as Big Brother of Computer Age," The New York Times,
  1233. May 6, 1993, at D1.
  1234.  
  1235. "Keeping Fewer Secrets," Issues in Science and Technology, vol.
  1236. IX, no. 1 (Fall 1992)
  1237.  
  1238. "The Only Locksmith in Town," The Index on Censorship
  1239. (January 1990)
  1240.  
  1241. [The republication of these articles for the non-commercial purpose
  1242. of informing the government about public policy is protected by
  1243. section 107 of the Copyright Act of 1976]
  1244.  
  1245. - --
  1246. End of Legal Net News v1i8
  1247.